自驾驶车辆是交通的未来。凭借目前的进步,世界正在越来越靠近安全道路,几乎缺点且具有意外和消除人类错误的可能性。然而,仍有许多研究和开发能够达到稳健程度。一个重要方面是要了解一个完全包括所有细节的场景。作为场景中对象的某些特征(属性)(例如,例如,驱动程序行为)可能是正确的决策。然而,当前算法遭受具有如此丰富的属性的低质量数据集。因此,在本文中,我们为属性识别提供了一个新的数据集 - CityCapes属性识别(CAR)。新数据集通过添加每个图像中的对象属性的其他还有重要的注释层来扩展众所周知的DataSet CounsOce。目前,我们已经注释了超过32K的各类类别(车辆,行人等)。数据集具有结构化和量身定制的分类系统,其中每个类别都有自己的一组可能的属性。量身定制的分类学专注于为开发更好的自动驾驶算法而具有最具利益的属性,这些算法取决于准确的计算机视觉和现场理解。我们还为数据集创建了一个API,以简化汽车的使用。可以通过https://github.com/kareem-molwaly/car-api访问API。
translated by 谷歌翻译
The number of international benchmarking competitions is steadily increasing in various fields of machine learning (ML) research and practice. So far, however, little is known about the common practice as well as bottlenecks faced by the community in tackling the research questions posed. To shed light on the status quo of algorithm development in the specific field of biomedical imaging analysis, we designed an international survey that was issued to all participants of challenges conducted in conjunction with the IEEE ISBI 2021 and MICCAI 2021 conferences (80 competitions in total). The survey covered participants' expertise and working environments, their chosen strategies, as well as algorithm characteristics. A median of 72% challenge participants took part in the survey. According to our results, knowledge exchange was the primary incentive (70%) for participation, while the reception of prize money played only a minor role (16%). While a median of 80 working hours was spent on method development, a large portion of participants stated that they did not have enough time for method development (32%). 25% perceived the infrastructure to be a bottleneck. Overall, 94% of all solutions were deep learning-based. Of these, 84% were based on standard architectures. 43% of the respondents reported that the data samples (e.g., images) were too large to be processed at once. This was most commonly addressed by patch-based training (69%), downsampling (37%), and solving 3D analysis tasks as a series of 2D tasks. K-fold cross-validation on the training set was performed by only 37% of the participants and only 50% of the participants performed ensembling based on multiple identical models (61%) or heterogeneous models (39%). 48% of the respondents applied postprocessing steps.
translated by 谷歌翻译
线性回归是统计分析的基本工具。这激发了线性回归方法的开发,这些方法也满足了差异隐私,因此可以保证,学到的模型几乎没有揭示用于构建它的任何一个数据点。但是,现有的差异化解决方案假设最终用户可以轻松指定良好的数据范围和超参数。两者都有重大的实践障碍。在本文中,我们研究了一种算法,该算法使用指数机制从非私有回归模型集合中选择具有高图基深度的模型。给定用于训练$ m $型号的$ d $二维数据的$ n $样品,我们使用近似Tukey深度构建一个有效的模拟,该深度在时间$ o(d^2n + dm \ log(m))$中构建。我们发现该算法在数据范围或不需要的超参数选择的情况下获得了强大的经验性能。
translated by 谷歌翻译
Natiq是阿拉伯语的端到端文本到语音系统。我们的语音合成器使用Encoder-Decoder架构引起了人们的注意。我们同时使用了基于TACOTRON的模型(Tacotron-1和Tacotron-2)和更快的变压器模型来从字符中生成MEL光谱图。我们将tacotron1与Wavernn Vocoder,Tacotron2与WaveLow Vocoder和ESPNET变压器与平行波甘gan vocoder串联,以从频谱图合成波形。我们使用了两个声音的内部语音数据:1)中立的男性“ hamza” - 叙述一般内容和新闻,以及2)表现力的女性“ Amina” - 叙述孩子的故事书来训练我们的模型。我们的最佳系统的平均平均意见评分(MOS)分别为Amina和Hamza的平均意见分别为4.21和4.40。使用单词和字符错误率(WER和CER)对系统的客观评估以及实时因子测量的响应时间有利于端到端体系结构ESPNET。 NATIQ演示可在线上https://tts.qcri.org提供
translated by 谷歌翻译
面部检测和识别是人工智能系统中最困难,经常使用的任务。这项研究的目的是介绍和比较系统中使用的几种面部检测和识别算法的结果。该系统始于人类的训练图像,然后继续进行测试图像,识别面部,将其与受过训练的面部进行比较,最后使用OPENCV分类器对其进行分类。这项研究将讨论系统中使用的最有效,最成功的策略,这些策略是使用Python,OpenCV和Matplotlib实施的。它也可以用于CCTV的位置,例如公共场所,购物中心和ATM摊位。
translated by 谷歌翻译
owloop是一个应用程序编程接口(API),用于通过面向对象编程(OOP)的方式使用本体Web语言(OWL)。使用OOP范例设计软件架构是常见的,以增加其模块化。如果架构的组件还用于知识表示和推理的OWL本体,则需要与OWL公理界面接口。由于猫头鹰不符合OOP范例,因此这种接口通常会导致影响模块化的样板代码,欧伦福旨在解决这个问题以及相关的计算方面。我们介绍了OWL-API的扩展,以提供猫头鹰公理之间的通用接口,而是经过推理和模块化OOP对象层次结构。
translated by 谷歌翻译
我们探讨各种塑性功能对神经元组件的影响。为了弥合实验和计算理论之间的差距,我们利用概念框架,组装微积分,这是基于神经元组件的脑功能描述的正式系统。组装计算包括用于突出,关联和合并神经元组件的操作。我们的研究专注于模拟不同的可塑性功能,使组装微积分。我们的主要贡献是对投影操作的修改和评估。我们试验OJA和Spike时间依赖的可塑性(STDP)规则并测试各种超参数的效果。
translated by 谷歌翻译
猖獗在社交媒体上使用令人反感的语言导致最近努力自动识别这种语言。虽然令人反感的语言具有一般特征,但对特定实体的攻击可能表现出明显的现象,例如名称拼写中的恶意改变。在本文中,我们提出了一种识别实体特定攻击性语言的方法。我们雇用了两个关键洞察力,即Twitter上的回复通常意味着反对派,一些账户持续到他们对特定目标的攻击性。使用我们的方法,我们能够收集数千名有针对性的令人反感的推文。我们在使用基于深度学习和支持矢量机基础的分类器时,我们展示了在阿拉伯语推文上具有13%和79%的相对F1措施改进的阿拉伯语推文的效果。此外,通过在多个实体上自动识别的攻击性推文扩展训练集可以提高F1-Measure48%。
translated by 谷歌翻译
我们提出并分析了算法,以解决用户级差分隐私约束下的一系列学习任务。用户级DP仅保证只保证个人样本的隐私,而是保护用户的整个贡献($ M \ GE 1 $ Samples),而不是对信息泄漏提供更严格但更现实的保护。我们表明,对于高维平均估计,具有平稳损失,随机凸优化和学习假设类别的经验风险最小化,具有有限度量熵,隐私成本随着用户提供的$ O(1 / \ SQRT {M})$减少更多样本。相比之下,在增加用户数量$ N $时,隐私成本以较快的价格降低(1 / n)$率。我们将这些结果与下界相提并论,显示了我们算法的最低限度估计和随机凸优化的算法。我们的算法依赖于私有平均估计的新颖技术,其任意维度与误差缩放为浓度半径$ \ tai $的分布而不是整个范围。
translated by 谷歌翻译